-
1 шенноновская энтропия
Русско-английский словарь по вычислительной технике и программированию > шенноновская энтропия
-
2 шенноновская энтропия
отрицательная энтропия; негэнтропия — negative entropy
полная энтропия; суммарная энтропия — total entropy
Русско-английский большой базовый словарь > шенноновская энтропия
-
3 плотность энтропии
-
4 коэффициент энтропии
Русско-английский новый политехнический словарь > коэффициент энтропии
-
5 энтропия
Авиация и космонавтика. Русско-английский словарь > энтропия
-
6 средняя энтропия
1. average entropy2. mean entropyРусско-английский большой базовый словарь > средняя энтропия
-
7 абсолютная энтропия
Русско-английский большой базовый словарь > абсолютная энтропия
-
8 апостериорная энтропия
Русско-английский большой базовый словарь > апостериорная энтропия
-
9 безусловная энтропия
Русско-английский большой базовый словарь > безусловная энтропия
-
10 относительная энтропия
Русско-английский большой базовый словарь > относительная энтропия
-
11 суммарная энтропия
Русско-английский большой базовый словарь > суммарная энтропия
-
12 условная энтропия
Русско-английский большой базовый словарь > условная энтропия
-
13 шенноновская энтропия
Information technology: Shannon entropyУниверсальный русско-английский словарь > шенноновская энтропия
-
14 энтропия Больцмана-Гиббса-Шеннона
Makarov: Boltzmann-Gibbs-Shannon entropyУниверсальный русско-английский словарь > энтропия Больцмана-Гиббса-Шеннона
-
15 энтропия Шэннона
Makarov: Shannon entropy -
16 энтропия Больцмана - Гиббса - Шеннона
Русско-английский физический словарь > энтропия Больцмана - Гиббса - Шеннона
-
17 информационная энтропия Шэннона
Makarov: Shannon information entropyУниверсальный русско-английский словарь > информационная энтропия Шэннона
См. также в других словарях:
Shannon entropy — noun information entropy … Wiktionary
Entropy (information theory) — In information theory, entropy is a measure of the uncertainty associated with a random variable. The term by itself in this context usually refers to the Shannon entropy, which quantifies, in the sense of an expected value, the information… … Wikipedia
Entropy in thermodynamics and information theory — There are close parallels between the mathematical expressions for the thermodynamic entropy, usually denoted by S , of a physical system in the statistical thermodynamics established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s; and the … Wikipedia
Entropy — This article is about entropy in thermodynamics. For entropy in information theory, see Entropy (information theory). For a comparison of entropy in information theory with entropy in thermodynamics, see Entropy in thermodynamics and information… … Wikipedia
Shannon's source coding theorem — In information theory, Shannon s source coding theorem (or noiseless coding theorem) establishes the limits to possible data compression, and the operational meaning of the Shannon entropy.The source coding theorem shows that (in the limit, as… … Wikipedia
Entropy of mixing — The entropy of mixing is the change in the configuration entropy, an extensive thermodynamic quantity, when two different chemical substances or components are mixed. This entropy change must be positive since there is more uncertainty about the… … Wikipedia
Entropy (statistical thermodynamics) — In thermodynamics, statistical entropy is the modeling of the energetic function entropy using probability theory. The statistical entropy perspective was introduced in 1870 with the work of the Austrian physicist Ludwig Boltzmann. Mathematical… … Wikipedia
Entropy (general concept) — In many branches of science, entropy refers to a certain measure of the disorder of a system. Entropy is particularly notable as it has a broad, common definition that is shared across physics, mathematics and information science. Although the… … Wikipedia
Entropy (film) — Entropy est un film américain réalisé par Phil Joanou en 1999. Sommaire 1 Synopsis 2 Fiche technique 3 Distribution 4 Liens externes … Wikipédia en Français
Entropy encoding — In information theory an entropy encoding is a lossless data compression scheme that is independent of the specific characteristics of the medium. One of the main types of entropy coding creates and assigns a unique prefix free code to each… … Wikipedia
Entropy power inequality — In mathematics, the entropy power inequality is a result in probability theory that relates to so called entropy power of random variables. It shows that the entropy power of suitably well behaved random variables is a superadditive function. The … Wikipedia